查看原文
其他

【人工智能】人工智能伦理的权力天平

海国图智001 海国图智研究院 2021-02-06



《人工智能伦理的权力天平》


导读

AI伦理场的权力就像引力一样,影响AI伦理学的各个方面。白人男性掌握技术权力,AI应用赋权特定群体。数据垄断使得科技公司和政府之间、科技公司和用户之间权力的天平逐渐失衡。


(图源:RBR)


正文

人工智能伦理场的权力就像引力一样,是一种无形的力量,会影响人工智能中伦理学的各个方面,这些权力旨在定义企业、社会、政府以及个人的隐私边界。但关于AI伦理学的争论很少将“权力”作为直接关注的对象,尽管它一直存在于表象之下。讨论人工智能的未来发展,不仅需要使最佳的AI系统成为可能,还需要明确谁掌握权力,以及AI如何影响触及的一切事物中的权力。


(一)白人男性掌握技术权力,AI应用赋权特定群体

在大型AI会议发表的研究中,只有18%是女性完成的;Facebook和Google分别只有15%和10%的研究人员是女性。这些人口种族和性别比例上的变化会使得AI公司在决策系统的创建中缺少种族和性别多样性,从而使得负责技术研究的工程团队与AI系统的受众人群之间出现明显的文化鸿沟,并在一定程度上产生“偏见”(Bias)。AI Now Institute的Kate Crawford将此称为为“白人问题”(White Guy Problem)。

 

如果白人男性继续掌握技术权力,以计算为重点的算法技术只会进一步放大结构性与系统性的偏差与歧视,使得AI应用赋权特定群体。

 

在1960年代的美国,人们努力使从幼儿园到高中的学生(无论男女)都更广泛地使用计算机和网络。但是,由于该程序的设置方式,私立学校学生的计算时间几乎是公立学校学生的两倍。再加上当时的私立学校都是男孩的事实,这意味着男孩比女孩获得更多的计算机和网络访问权限。计算访问权的不平等反映并扩大了现有的结构性不平等。正如AI Now Institute在歧视性系统报告指出的那样,在构建算法技术的社区中多样性的缺乏将会明显扩大妇女、变性人、非双性人和有色人种的方式之间存在的有害反馈回路。

 

当一部分受众群体被排除在决策过程之外时,技术上的突破与创新并不能带来真正的进步。AI行业种族和性别多样性的缺乏如果不改变,只会加速“技术官僚主义”的崛起。随着AI技术在各领域的广泛应用,其具备使用价值的背后,实际上是一整个权力系统,这样的系统会厚积数据资源并加深技术上的偏差,使得系统可能根据种族、身份等标签来判断一个人的价值、性别或者社会地位。

 

为了解决AI行业在种族和性别多样性和包容性方面的缺失问题,美国《算法责任法案》的作者Mutale Nkonde提出:AI公司应该抛弃模糊的愿景,可以引进一种外在推动力。霍华德·史蒂文森(Howard Stevenson)提出将“种族素养”(Racial Literacy)作为计算机科学学生课程的一部分,并且应当为技术公司的员工提供培训。他指出,种族素养旨在为人们提供有关种族素养的培训以解决工作场所中可能涉及的种族敏感问题。在正式研发技术之前,通过隐性联想测试以确定人们持有的定型观念,并加以克服。AI系统设计师或者机器学习工程师可以以开放、无争议的方式谈论产品或服务中可能对不同用户群产生的影响。

 

如果短期内无法直接增加AI行业的种族和性别多样性,那么通过重视技术人员的伦理素养,如在美国语境下的种族素养,能有助于改善AI决策中的权力失衡现状。

 

(二)国家与科技巨头:权力失衡的新现实

当数据垄断与技术垄断已经成为现实,数字政治化不可避免。科技公司追求技术创新的动机并非出于公共利益的考虑,但其进入公共领域的巨大影响力以及巨量数据的卷入,使其行为不可避免地会产生政治影响。

 

科技公司在为算法创造规则,一定程度上也在为受算法影响的所有公民制定规则。社交媒体既使得政治交流与参与更加便捷,也在审议用户发布的内容与形式。这种情况下,科技公司即使刻意追求也很难保持其中立的身份。用户看似在平台上拥有自由选择话题的权利,但是算法正在为他们做出选择,算法筛选出来的信息将会塑造用户对某一议题的认知与态度。而政府对于平台公司的监管,目前全球范围内大多仍处于辩论阶段。

 

这些新现实使得科技公司和政府之间、科技公司和用户之间权力的天平逐渐失衡。在此背景下,政府要接受这样的现实,以更加成熟和负责任的方式与科技巨头互动,以系统化、原则性的互动模式平衡权力天平。尽管科技巨头对整个行业的发展有着巨大的影响力,但是不同的科技公司力量和资源配置仍存在很多差异。因此,更有效地赋予他们权力是着手打造有效竞争环境、形成良性生态的开始。而技术公司应视自己为提供服务的中立平台,对用户群体不加筛选,公平平等地建立客户关系。任何对规则的打破和对此类行为的默许都会影响整个行业的生态,从而牵动权力的天平。

 

如果我们不负责任地开发人工智能,行业内种族和性别多样性的缺乏将会导致权力进一步失衡。这将使精英和少数群体独占人工智能时代的红利,从而使财富和权力更加集中,带来更加严重的社会问题和全球性挑战。如果政府和科技巨头不能平衡权力天平,那么如今人工智能领域的算法创新与技术突破只会使得技术成为政治的符号,扩大现有的社会鸿沟与冲突。

 

人工智能正在改变社会,如果只有少数人有权决定构筑AI时代的世界面貌,那样的社会是否是一个稳定的社会仍引人深思。在规划未来世界的道路时,必须认识和把握过程中的权力平衡。因为我们应该担心的不是AI本身,而是我们要用AI做什么。是我们在运用AI来塑造未来,AI不会为我们塑造未来。


(作者:田慧)

参考文献:

1. Jessie Daniels, Mutale Nkonde, Darakhshan Mir: ADVANCING RACIAL LITERACY IN TECH, Data and Society

https://datasociety.net/library/advancing-racial-literacy-in-tech/
2. Kate Crawford:Artificial Intelligence's White Guy Problem
https://www.semanticscholar.org/paper/Artificial-Intelligence's-White-Guy-Problem-Crawford/86006acb8650fe9c2a2b056e5271d9b525e09c3c
3. Seth Fiegerman: Elon Musk predicts World War III
https://money.cnn.com/2017/09/04/technology/culture/elon-musk-ai-world-war/index.html
4. Fight for future:
https://futureoflife.org/awos-signatories/
5. Anne Taylor:Unlocking the Power of Data with AI
https://www.cio.com/article/3392356/unlocking-the-power-of-data-with-ai.html
6. EMILY A. VOGELS, LEE RAINIE:Power dynamics play a key role in problems and innovation
https://www.pewresearch.org/internet/2020/06/30/power-dynamics-play-a-key-role-in-problems-and-innovation/
7. Khari Johnson: AI ethics is all about power
https://venturebeat.com/2019/11/11/ai-ethics-is-all-about-power/



原文摘自《人工智能资讯周报》总第92期


《人工智能资讯周报》探讨人工智能对公共政策、治理和政策建议的影响,探索人工智能对商业、政治和社会的影响,以确定潜在的研究领域,探讨可能的合作研究和机构伙伴关系。本刊着重提供中国人工智能发展动态和对人工智能的思考,同时关注全球范围内人工智能相关研究动态。本刊旨在通过可靠的研究,来帮助企业、研究机构和公民预测和适应技术引领的变化。


欢迎订阅

· 微信推送——请关注“海国图智研究院”公众号

· 网站推送——请收藏我们的网站www.intellisia.org (推荐√)

· 邮件推送——请扫描下方二维码登记邮箱信息,每日接收新鲜、深度的时政洞察



往期精彩回顾:

【一带一路】后疫情时代下“一带一路”如何参与国内国际“双循环”?

【海图新译】贺锦丽或助拜登赢下佛罗里达州

【海图招聘】东南亚观察刊物招聘


    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存